spark 源码SEARCH AGGREGATION

首页/精选主题/

spark 源码

托管Hadoop集群

...基于 Hadoop 框架的大数据综合处理平台,提供开箱即用的 Spark、HBase、Presto、Hive 等大数据生态常见组件,同时可选 Hue、Sqoop、Oozie、Pig 等多种辅助工具。 为满足存储计算分离的需求,UHadoop 现已支持独立管理的 HDFS 存储集群,可...

spark 源码问答精选

Spark和Hadoop对于大数据的关系?

回答:Hadoop生态Apache™Hadoop®项目开发了用于可靠,可扩展的分布式计算的开源软件。Apache Hadoop软件库是一个框架,该框架允许使用简单的编程模型跨计算机集群对大型数据集进行分布式处理。 它旨在从单个服务器扩展到数千台机器,每台机器都提供本地计算和存储。 库本身不是设计用来依靠硬件来提供高可用性,而是设计为在应用程序层检测和处理故障,因此可以在计算机集群的顶部提供高可用性服务,...

娣辩孩 | 1491人阅读

大数据Spark技术是否可以替代Hadoop?

回答:1998年9月4日,Google公司在美国硅谷成立。正如大家所知,它是一家做搜索引擎起家的公司。无独有偶,一位名叫Doug Cutting的美国工程师,也迷上了搜索引擎。他做了一个用于文本搜索的函数库(姑且理解为软件的功能组件),命名为Lucene。左为Doug Cutting,右为Lucene的LOGOLucene是用JAVA写成的,目标是为各种中小型应用软件加入全文检索功能。因为好用而且开源(...

ctriptech | 850人阅读

网站怎么上传源码

问题描述:关于网站怎么上传源码这个问题,大家能帮我解决一下吗?

周国辉 | 864人阅读

Hadoop与Spark相比有存在优势的方面吗?

问题描述:该问题暂无描述

Object | 871人阅读

源码

问题描述:https://www.ucloud.cn/yun/2970.html谁有这个的源码啊,急需

1341693703 | 934人阅读

spark 源码精品文章

  • 搭建Spark集群?没想到你是这样的k8s

    ... 源代码 Docker 镜像主要基于 https://github.com/mattf/dock...。 源码托管在 https://github.com/kubernetes... 步骤零:准备工作 本示例假定你已经具备以下条件: ● 有已安装并运行的 kubernetes集群。● 已在某个path路径中安装了kubectl 命令行...

    bitkylin 评论0 收藏0
  • Spark Java使用DataFrame的foreach/foreachPartition

    ...过高的内存)。这个问题真的很让人纠结。翻看Spark的JDBC源码,发现实际上是通过foreachPartition方法,在DataFrame每一个分区中,对每个Row的数据进行JDBC插入,那么为什么我们就不能直接用呢? Spark JdbcUtils.scala部分源码: def saveT...

    Jrain 评论0 收藏0
  • pyspark底层浅析

    ...说明我在实际工作中相关的一个问题,以及如何利用这些源码去解决的。

    FrozenMap 评论0 收藏0
  • Flink 从0到1学习—— 分享四本 Flink 国外的书和二十多篇 Paper 论文

    ... 40、Flink 全网最全资源(视频、博客、PPT、入门、实战、源码解析、问答等持续更新) 41、Flink 灵魂两百问,这谁顶得住? 源码解析 1、Flink 源码解析 —— 源码编译运行 2、Flink 源码解析 —— 项目结构一览 3、Flink 源码解析—...

    jollywing 评论0 收藏0
  • Node+H5实现大文件分片上传(有源码)

    ...传完成, 告知Node端合并文件 前端代码 Node端代码 最后上源码: 点击跳转GitHUb

    1treeS 评论0 收藏0
  • Spark 』4. spark 之 RDD

    ...2. 新标签中打开图片,查看原图哦。 1. 什么是RDD 先看下源码里是怎么描述RDD的。 Internally, each RDD is characterized by five main properties: A list of partitions A function for computing each split A list of dependencies o...

    timger 评论0 收藏0
  • 在pyspark中调用scala代码

    ..._jvm.com.sysu.sparkhelper.LdaHelper.convert(result)) 总结 这算是阅读源码的一次应用,可以说还是解决了遇到的问题,同时也加深了对Spark的了解。本来做并行化就是希望效率更高,pyspark却在调用scala代码,同时进行了很多数据转换。想要...

    alanoddsoff 评论0 收藏0
  • PySpark SQL 相关知识介绍

    ...DB介绍 MongoDB是一个基于文档的NoSQL数据库。它是一个开放源码的分布式数据库,由MongoDB公司开发。MongoDB是用c++编写的,它是水平伸缩的。许多组织将其用于后端数据库和许多其他用途。 MongoDB附带一个mongo shell,这是一个到MongoD...

    CoderStudy 评论0 收藏0

推荐文章

相关产品

<